查看原文
其他

时间码≠时间:为云时代重新发明 SMPTE ST-12(全)

欢迎关注👉 GaiaDaily
2024-11-19

在视频世界里,时间码无处不在。它是我们可以用来描述一帧视频的通用语言。它易于理解,易于使用,也易于读取。每个视频工作流要么依赖于时间码,要么至少得与时间码兼容。然而,时间码目前的状态还不足以满足视频工作流的未来需求。但在我们展望未来之前,先让我们回顾一下。



01 什么是时间码?

为什么要使用它?


时间码的应用如此普遍,以至于我们往往认为用它是理所当然的。但它到底是什么呢?如果你把它视为一种同步工具,其实你没想错。但这不是时间码被开发出来的原因。

在视频录像带出现之前,所有的媒体都是用胶片拍摄和剪辑的。胶卷使用的是柯达公司开发的一种叫做 KeyKode 的系统,也被称为 Edge Codes(直译为“边缘码”)。Edge Codes 会标记每一帧胶片,让剪辑师确切知道他们看的是什么,并能够告诉其他人这些是什么。

一个伊士曼柯达1997年的35毫米彩色负片样本,上面就显示出当代的 Edge Codes。图源:Jay Holben


然而,到了50年代,视频录像带在电视领域中的应用变得越来越广泛。当时,录像带还没有用于标记帧的类似 Edge Codes 的体系,因此剪辑师无法分辨他们手上在剪的是哪一帧。此时,人们探索了一些有趣的解决方案,比如在音轨上使用脉冲,但直到很久以后,一套统一标准才得以实现:即 ST-12。

ST-12 是美国电影与电视工程师协会(SMPTE)于1970年提出的一种通用录像带帧标记体系。在这套标准中,每一帧都以特定的速率计数:帧组成秒,秒组成分,分组成时。当然,这种帧标记方式是以类似时钟的方式显示的:HH:MM:SS:FF(时:分:秒:帧)。

1975年,SMPTE 批准了这套标准,时间码由此诞生。


02 时间码≠时间

但是,时间码的发展历史告诉了我们非常重要的一点:它最初的发明目的是在一段基于时间的视频媒体中识别某一帧。这是一种在固定视频段落中挑选特定帧的方法。它是一个地址、一个标签……它并不是真正的时间。

尽管时间码被表示为时间,但它并不是时间。因为它类似时钟,所以可以用来同步分散的媒体片段。如果将每台采集设备的时间码“时钟”都设置为相同的值,那么它们录制的帧或音频样本会具有相同的标签。

我们之所以把时间码看作时间,是因为它看起来像时钟,但是两台具有相同时间码的摄影机之所以同步,不是因为它们的帧是同时采集的 —— 它们同步是因为它们有相同的标签。

这里最关键的细微差别在于,这个标签是任意的。如果我们把标签设置成相同的,那么设备就可以同步,但它们并不一定得设置成相同的。还是那句话,时间码并不是时间。

讲回 ST-12,它解决的问题是视频录像带工作流。这意味着解决方案需要具有一致性且是轻量级的,于是就有了时、分、秒和帧这样的限制。在不同的媒体上重启时间码,或者滚过24小时标记(时间码会回到00:00:00:00:00),最终你会得到具有相同时间码的不同帧。这就成了一个问题。

为了解决这个问题,我们在后期制作工具中使用“卷”或“带”ID。这个辅助标识符对于区分可能时间码互相匹配的帧是必需的。但是,卷和带是连续媒体的单独部分。在基于文件的数字世界中,这个概念已经失去了相关性。每一段视频片段都自成为一个独立完整的资产。

忽然间,我们从使用包含大量帧的一些资产,变成了使用包含一些帧的大量资产。因此,发现具有重叠时间码的资产(即具有相同标签的不相关帧)现在成了一个更常见的问题。


03 不对应当下时间

探究时间码的起源和最初用途,我们会开始看到它是如何迅速变得相当受限的。一方面,时间码是任意的:你没法在所有设备、所有地方、同一时间实现时间码值的全局同步。没错,整个拍摄过程是可以当场同步,但是这个过程实际上并不能自动执行。所以这并不是一种保证。

类似地,你也没法强行使用特定时间码的值。虽然使用“钟表时刻”(time of day,缩写 TOD)时间码比较常见——即与当前时区的时钟相匹配的值——但使用完全任意的值也很常见。

当拍摄在夜晚进行时,这通常很有必要。在此类情况下,在拍摄日开始时就将时间码设置为 01:00:00:00,可以消除钟表时刻时间码格式的另一个主要问题:午夜清零。

由于时间码使用时间单位来表示它的值,因此它受到24小时时钟的限制。如果你使用 TOD 时间码拍摄,然后拍摄跨越了午夜,那你的时间码时钟会在拍摄中途重置回 00:00:00:00,造成标签和同步问题。



04 时间和空间

上文提及的这些限制在数字领域不复存在。文件可与其媒体元素一道携带大量附加数据。在获取媒体(即:镜次)这层意义上,这些文件实际上是一些离散的时刻。它们定义了视频的开始和结束,通常还带有唯一的标识符。

由于这些都是由计算机系统创建的,因此它们也能实时实地地记录媒体文件是何时、以及在何处创建的 —— 对后者的记录现在也越来越频繁了。数字媒体的创建不仅基于文件,也越来越多地对外分发且优先使用云,这拓宽了媒体创建的环境。此外,随着高速移动网络的不断完善,传统的视频信号传输方式将被基于文件和IP的解决方案所取代。这两种方法都使得识别独特的媒体片段及其组成单元比录像带时代复杂得多。

很明显,仅将时间码作为标签是不够的。作为一种定位资产并及时对资产加以识别的特定单位(即:帧),时间码既是任意的,也是不精确的。因此,是时候更新相关标准了 —— 新标准应当利用眼下这个完全数字化、基于文件且优先使用云的制作世界的好处。

如果我们能重新思考我们录制和描述某一时刻的方式 —— 正如我们已经彻底改变了录制图像或声音的方式 —— 我们会开始看到,这不单单只为我们提供了更多的信息。它本身就成了一条完整的管线。

比方说,流媒体视频可以追溯到它的源头——在某一特定空间位置录制的特定时刻。随着人工智能驱动的视频(如深度伪造 -Deep Fake)的迅速运用和发展,有能力维护和确立任何给定媒体的准确性至关重要。这甚至可能上升为国家安全问题,而由此又引出了“加密”这个话题。那么,我们来看看新的解决方案如何能够解决 ST-12 在当下的问题。


05 大小的问题

本质上,所有基于时间的媒体创建——电影、视频、音频等——都是在一定范围内以一定速率冻结多个时刻的过程。人们倾向于在看到特定的时间码值时假定它指的是一个离散的时刻。即一个单独的时间点。但实际上,单个时间码值(即:帧)其实是一个时间范围。它是一个连续运行时间的样本。

比方说,以时间码标签 03:54:18:22 为例。在帧率24时,这个单帧标签实际上代表了将近42毫秒的时间,而不是一个精确的时刻。也就是从帧被采集或播放到下一帧开始走过了42毫秒的时间。

一个单帧代表了近42毫秒的时间段

42毫秒可能听起来不多,但它已经长到足以让标记变得不精确了。当你把样本大小非常不同的媒体(如视频和音频)混合时,这一点就会变得非常明显。视频样本的时间范围远远长于音频样本的时间范围。在 48KHz 时,每个视频样本对应了2000个音频样本。这意味着每个时间码标签也都对应了2000个音频样本。

尽管声音部门通常负责片场的时间码,但时间码本身完全不足以标记音频样本。(事实上,这就是许多录音机以整秒启动文件的原因——这会使后期同步视频变得更容易。)

为了在后期制作过程中调和样本分辨率的差异,音频通常需要在子帧一级进行调整,以便与视频对齐。这通常被称为“滑动(slipping)”。你可能看到过的另一个术语是“perf-slipping”,它指的是通过在胶片上逐渐增加穿孔(通常是一帧的1/3或1/4,取决于格式)来滑动音频(在这种情况下,特指录音带)的过程。


06 既过于宽泛,

又过于有限


从这个方面来说,时间码过于宽泛或粗糙,无法准确和精确地标记时间。但在另一方面,我们还面对着时间码这种格式的24小时限制 —— 超过后它会自动滚到 00:00:00:00。这意味着唯一时间码值是固定且数量与有限的。在使用 TOD 时间码时,这些值每24小时重复一次。当以 24fps 运作时,24小时的时间内只有约200万个独一无二的时间码标签。

把日历天数采集为音频样本大小使得时间码既过于宽泛又过于有限

比方说,如果一个制作项目同时使用 TOD 时间码录制视频和音频,那么在第一个拍摄日录制的镜次和在第二个拍摄日录制的镜次会具有相同的时间码值——即使它们描述的时间和空间都不同。

我们在这里看到的问题是,时间码既过于宽泛又过于有限。规格方面存在的另一个问题是,时间码实际的基本单位(帧)本身并不是一种固定的规格。帧可以是 1/24 秒,1/25 秒,1/30 秒,1/60 秒,依此类推。虽然帧在录制时是固定大小的,但时间码无法表明帧的长短。

此外,时间码也不允许帧率本身可变。可变的帧率会让每一帧的持续时间发生变化,这可能是出于编码原因,甚至也可能是一种创意处理。使用帧率作为创意工具是一种颇为迷人的概念,但其目前受到 ST-12 的限制。

60fps 和 24fps 之间的差异对于观众来说是巨大的,而且我们可以对此加以有效利用,但是 33fps 呢?从 21fps 到 29fps 的微妙转换可能会产生什么效果?或者模拟双或三叶片快门胶片放映机的抖动呢?视频游戏产业已为创造性地使用帧率开创了先例,这是一种绝对值得在视频制作中探索的技术。前提是我们能找到支持它的标准。

时间码还会阻碍要像超采样音视频分辨率一样超采样时间分辨率的工作流。想象一下:在这样的工作流中,采集可能是以一种帧率(比如 120fps)进行,而代理可能是以另一种较低的帧率(比如 60fps)创建,最终则在与前两者都不同的帧率(比如 24fps)下完成。

这样的工作流可消除对光流帧插值和升格的需要(除非在极高的帧率下)。视频可以毫不费力地在不同的帧率之间切换,创作者也可以在后期选择镜头长度。运动模糊和快门效果将是后期制作的效果。摄影不仅会创造更多的帧,也会创造更清晰的帧,让视效(VFX)环节得以实现更清晰的跟踪和蒙版。


07 位置的问题

我们已经提到过在时间和空间中标记时刻的问题。眼下,时间码给了我们一种可以处理时间(尽管有限制),但无法处理空间的标签方式 —— 特别是位置。而时间和地点之间存在一种有趣的关系,这种关系让事情变得更加复杂。这种复杂性大多以时区形式出现。随着工作流朝云优先方向发展,且变得越来越分散,能够本地化时间戳就比以往任何时候都更重要,这样时间参考相对于位置而言就能有意义了。

使用即时样片的工作流很好地说明了这一点。上传的媒体文件是在特定时间在特定地点录制的,但你可以在地球上的任何其他时间及地点即刻访问它和与它交互。因此,它实际上并不存在于某个特定的时间地点,只是一种辨识手段。

而涉及到交互,事情就变得更复杂了。评论或注释可能(事实上也很常见)会应用于与原始位置不同时区的资产——甚至不是该资产当前的物理“所在地”。当评论者在某个媒体文件上留下一条带有来自不同时区 TOD 时间码的评论时,哪个时间才是正确的?

不过,拍摄可以利用这种时间+位置流动性的优势,以克服不同的时间码限制。正如我们已经讨论过的,为了避免“午夜清零”问题,过夜拍摄可能会将他们的时间码“时钟”设置从为 00:00:00:00 或 01:00:00:00:00 开始。如果你不想让时间码跨越午夜,那就把午夜移动到不同的时区。这是种聪明的解决方案,解决了一个棘手的限制,但也凸显了时间码有多薄弱和任意 —— 时间码毕竟不是时间。


08 视角问题

到目前为止,我们所讨论的一切都是个问题,这当然没错,但在你使用的是一个视频源和一个音频源时,这个问题显然是可处理的。

但当你加入更多视角时,一切都会变得更麻烦起来。用不同视角来解释同一时刻可能会得到很不同的结果。然而采集技术的视角非常有限 —— 视频、音频或数据——这就是通常会有多台设备同时采集某一时刻内尽可能多的信息和视角的原因。

在典型的拍摄采集设置中,我们会有视频和音频。针对同一时刻,其实有着两种互相独立的视角。虽然它们描述的是同一时刻,但结果却完全不同。在这个示例中,时间码可以很好地将它们组合在一起。如果它们共享一个时间码值而且是“同步的”,那么重叠的时间码会告诉我们它们描述的是相同的时刻。在这种情况下,一种视角是视频,一种视角则是音频。

然而,可以预见的是,随着我们添加更多的视角 —— 比如说添加一或两台摄影机,情况会变得更加复杂。我们可以将所有这些视角的时间码同步在一起,但现在我们面临的问题是几组媒体不仅共享重叠的时间码标签,而且还共享数据类型。此时要认出不同的帧会困难得多。

你添加的摄影机越多,问题就变得越复杂

在后期制作过程中,我们现在有了几套重复的帧标签。标签本身并没有告诉我们一个给定的帧是来自 A 机还是 B 机。这里没有固有的联系。相反,我们最终使用一种额外技术,以独特的方式识别某一帧。对于视频,这通常是通过在元数据中嵌入卷、带或 ClipID 来完成的,但不能保证给定的摄影机会嵌入或支持这些元数据 —— 事实上,你甚至没法保证摄影机会给予它的文件独特的命名。许多专业级电影摄影机都具备这个功能,但这并不是板上钉钉的事。最后,随着媒体在后期制作过程中不断迭代,元数据可能会丢失,转而必须以单独文件进行传输 —— 通常是 ALE 或 EDL 文件。

虽然拍摄中最明确的不同视角的例子是视频和音频,但公平地说,动作、遥测、布光、剧本注释等等都构成了针对这些时刻的其他视角。它们都通过各自独特的视角来描述同一段内容,都为完整的影像增添了内涵。每年,拍摄中录制的数据类型数量都在持续增加。因为其中每一个都描述了某一特定时刻,于是它们也需要可行的时间标签。这可不是 ST-12 的设计初衷。

如今,一段录制下来的特定时间段关联着多到难以置信的数据量。数据生成和时间标签的交汇要求使用能够明确自身视角的时间标签。这个标签同时也是媒体文件的标识。知道一个片段是何时生成的还不足以知道它的内容和性质。

没错,目前我们可以使用时间码进行同步。我们可以用它以时间重组不同的视角。但问题是,时间码实际上只支持视频帧。相比之下,音频时长是从采样率和录音开始时采集的时间码值中得出的。它没有固有的时间码标准。其他以数据为中心的采集类型也是如此,比如动作捕捉、表演捕捉、遥测等等,这些都是虚拟制作所必需的。这些类型可按每帧采样,但也可在更高的分辨率下采样。此外,此类数据是文件优先的。它们会从计算机系统接收到一个时间戳,该时间戳是计算机在创建它们时创建的,这个时间戳与计算机(创建它们时处于)一天中的什么时刻有关。由于时间码是任意的,并且可能不会使用一天中的某一时刻作参考,因此我们没办法有效地将这些同步化。


09 代际问题

就采集到的媒体片段而言,其生命周期自然不止于采集阶段。我们希望以时间识别媒体文件的主因是,这样我们就可以将其与其它视角的媒体文件组合起来,创建我们的项目了。我们添加带时间码的媒体文件的时间线和序列都有自己的时间码,因为剪辑中的每一帧都该有个与剪辑相关的时间标签。

这意味着,一旦带时间码的媒体文件添加到时间线,媒体文件的帧现在就有了两种不同的关联时间码值:源时间码(嵌入在源媒体中的时间标签)和录制时间码(由时间线分配的时间标签)。这两个术语都来自线性磁带剪辑——源时间码是“源”磁带的时间码,而录制时间码是最终成品(或“录制”)磁带的时间码。

在你检查典型项目的片段时长时,时间码的局限性就变得很明显了

当然,随着更多同时发生的媒体文件(如同步音频、摄影机角度、立体视频、合成元素等)被添加到时间线中,这种情况会变得更复杂。而当剪辑师利用速度效果操纵时间时,情况会变得更加混乱。一旦用了这些效果,源时间标签就变得无关紧要了,因为帧的内容与其时间码值之间的链接被破坏了。

虽然时间线的时间码可以从任何值开始,但它通常从整数小时开始 —— 一般都是 00:00:00:00 或 01:00:00:00:00。虽然像电影长片这样的长项目可能会被分成好几卷。

卷是仅包含项目一部分的时间线,通常时长约为 20-25 分钟,近似于一卷胶片的长度。当项目分卷录制时,每条时间线的起始时间码可能代表卷号,这样第一卷会从 01:00:00:00 开始,第二卷会从 02:00:00:00 开始,依此类推。同样,这是一种巧妙的方法,可以操纵时间码的任意性质,从而向标签注入更多信息。

使用 01:00:00:00 开始的时间码将卷数据添加到时间码中

开始剪辑后,我们需要跟踪资产在一条时间线(或多条时间线)上的位置,以及在给定的时间线中使用了原始资产的哪些帧。而且,像 EDL 这样的列表就是为此而设计的,但是剪辑列表存在于时间轴和资产之外。源时间码和录制时间码一道可为我们提供关于资产在哪使用以及它的哪部分被使用的前后环境信息。单独拆开看的话,两者哪个都没给我们任何真实的识别信息。

源时间码本身能告诉我们我们在使用资产的哪部分,但不能告诉我们资产是在哪里使用。录制时间码本身能告诉我们资产在时间线的什么地方被使用,但不能告诉我们用的是哪个资产或资产的哪个部分。我们需要更多信息。我们需要其他识别信息,如卷、磁带或片段名称,来存储、跟踪和管理其他地方的时间码。


10 前后环境的问题

这些问题的核心之一是,为了真正确定一个单帧,需要在时间码中附加必要的前后环境。关于所标记的帧,一个简单时间码值能告诉我们的信息非常少 —— 我们不知道是什么创建了它、它是什么、它该有多长,或它是如何被使用的。尽管 ST-12 确实为所谓的用户位(user bits)提供了空间(用户位可以用于此目的),但在如何使用这些位方面,业界几乎没有标准化做法。

这把我们带回到这篇文章反复强调的一句话上:时间码不是时间。如果一直把时间码看作是时钟,我们会倾向于不仅用它来识别时间中的那一帧,还将其识别为在其他帧中独一无二。这种用法就是我们避免午夜清零的原因。但是,正如我们所讨论的,在一个24小时周期内,只有很有限的唯一时间码值,重复遇到同个时间码值不可避免。

为了帮助提供缺失的前后环境,我们通常会将不严格基于时间的额外相关数据与基于时间的媒体文件(打板、色彩校正、剧本注释、LIDAR 等等)联系起来。如今,我们试着用时间码来告诉自己一个媒体文件(或一个媒体单元)是什么以及它何时被使用,但即便用了用户位,ST-12 也没有携带足够的信息以有效地做到这一点。

即使我们想包含在媒体中的大部分数据不是时间信息,在使用与时间相关的标签来唯一识别原始媒体资产前后环境中的最小媒体单元时(即识别某一视频文件中的某一帧),它们仍然是必要的。而在其他外部资产的前后环境中也是如此(即识别视频文件1中的某一帧与视频文件2中的某一帧不同)。

这不是种激进的想法。其实有很多方法可以管理拍摄获得的媒体文件。比方说,多数专业级电影摄影机会将自身的元数据结构嵌入到录制文件中。

如果我们准备在时间标签规格中为前后环境数据制造空间,就能创造出许多新的可能性。在基础层面上,这将允许我们通过标准化数据存储地,实现跨各摄影机制造商、视频硬件制造商和软件开发商并能兼顾时间和前后环境地识别出某一帧或样本。


11 以时间码

作为识别方式


让我们回顾一下时间码的最初用途,也就是作标签。上文中,我们已经讨论了很多关于时间码的问题,但其实这已经是种相当出色的解决方案了。

它可以同时服务于两种识别目的:既可以在录像带(或数字文件内部)上创建一个唯一的媒体标识,也可以标识出某一特定时刻。时间码在实际的时间和媒体文件之间建立了一座桥梁。

在媒体文件和时间之间架起一座桥梁


但此处的关键是,虽然时间码可以同时做到这两件事,但它只能在某个媒体文件的前后环境(如录像带)中做到这两件事。媒体标识不等同于时间标识。它们都有各自的属性,也都有在现代工作流中改进使用和功能的需要。



12 媒体标识要求

· 可用于在单个媒体资产中定位和识别单个基于时间的媒体单元(如单帧或音频样本);
· 可用于在其他媒体资产的前后环境中定位和识别基于时间的媒体(或基于时间的媒体的单个单位);
· 可用于跟踪某个基于时间的媒体的源头。


13 时间标识要求

· 可用于在时间上定位单个基于时间的媒体单元;
· 可用于定位某个基于时间的媒体在时间上的源头;
· 可用于识别某个基于时间的媒体的采样率;
· 可以与实际时间相关,且人类可读。

虽然媒体标识和时间标识不同,但它们不可分割,使用单一标准来存储和跟踪它们具有很大的价值。


14 寻找新的标准

我们已经聊过很多 ST-12 不适合基于文件的、云优先的现代工作流的地方。那我们要怎么取代它?我们要做的第一件事,就是为新标准需要提供哪些内容设置一个框架。新的打标签标准应:

· 能够识别资产的最小单元(即帧或采样),并将其与其他单元和其他资产区分开来;
· 能够以时间识别资产之间的关系;
· 数据密集;
· 能够轻松应用到现有和未来的文件封装格式中;
· 且向下兼容 ST-12。

但是概述一套新标准能做到什么还不够。我们还需要设置一些“护栏”,以确保新标准能在未来取得成功。要做到这一点,我们需要立些假设。未来,我们应假设:

· 视频传输将消失,取而代之的是文件传输;
· 所有硬件都将连接到互联网;
· 所有原始资产都会在创建时自动传输到云端;
· 为了进行超采样,视频、音频和时间的分辨率将会提升。

考虑到这些假设和未来的自动化工作流,新的解决方案应基于网络、由元数据驱动且可扩展。新的时间码 2.0 应能在每帧中携带大块数据。由于采集的所有数据(除了实际的光子)都来自并要传输到计算机系统上,所以这些数据得能通过代码轻松读取,并且能轻松传输到软件中。此外,虽然这些数据块应当有一个用于核心信息的标准结构,但是制造商和设计人员也应当可以扩展它们。比方说,这种结构应当包含一个时间戳标准位置,但是摄影机制造商可能又需要一个地方来放入它们的自定义元数据。

在时间方面,时间码 2.0 应该取决于联网提供的、带日期的本地化当日时间。它还应当能存储采样率和采样大小。

如果我们知道采集样本的确切时刻(精确到毫秒),以及样本的长度(或采集样本的每秒采样率),每个单独样本都可在时间上被确定为真正独一无二的。这就解决了之前提到的“既过于有限,又过于宽泛”的问题,提供了一个超过24小时的识别水平,并能够跟踪与实际时间相关的个别样本。

然而 ST-12 已经存在了将近50年,它不会很快消失。但通过查看联网提供的时间日期及采样率,我们可以计算出一个与 ST-12 兼容的值来添加到文件中。通过这种方式,新标准可以向后兼容启用了时间码的工具。下面是一个表示为 JSON 的时间标签的示例:




15 时间管线

如果我们安排一套新的标签标准作为数据,我们也可以添加其他信息。

此外,由于未来的数据将完全由计算机系统处理,所以对数据的存储量没有真正的限制。比方说,我们可以开始以层的形式跟踪对时间的操作。

利用时间层的概念,单个文件可携带每一代单帧信息:从源头,到剪辑,到特效,再到交付。每个新层都可以简单地成为数据块中的一个新条目。


将这些信息叠加在一起后,我们会开始看到一种新管线模式的出现。在过去的几十年里,摄影机技术取得了令人难以置信的进步,它们生成的图像具有惊人的高分辨率、宽色域配置文件和高效的编码配置文件。显示技术也在空间分辨率、对比度、屏幕厚度和能源效率等方面有长足的进步。

后期制作标准和管线已对技术的种种进步给出了反应,并逐步发展以处理更多数据。非线性编辑软件(NLE)现已可在一条时间线上支持多种分辨率。一些高级调色工作流,比如 ACES,已创建了管理色彩控制周期的管线。杜比则已开发不同音频和色彩环境的管线与解决方案,如杜比全景声和杜比视界。

但我们追踪时间的方式几乎没什么进展。一套新的基于数据的时间码标准或许可以改变这一点。打造时间方面新管线的想法带来了一个重要机会 —— 信任。

时间管线可以提供一种通过操作将帧追溯到其原始位置的方法。这可以用来确定给定帧的真实性和准确性。随着深度伪造这样的人工智能操作兴起,返回帧的原始位置的能力可能会成为采样的“指纹”。但这引发了一个严肃的问题:如果我们可以用它来追踪采样的源头,那我们该如何保护数据本身不被操纵?此外,如果我们能够准确地确定在何时——以及更重要的——在何地创建了一个帧或采样,我们如何确保隐私得到保护?你可以想象一部纪录片拍摄了内容比较敏感的采访。此数据不应使任何人暴露于潜在危害中,因此还必须应用加密规则。


16 建议的解决方案

寻找 ST-12 的接替方案其实并不新鲜了。一些提案(比如 ST-309 或 RDD 46:2019)已经问世以拓展现有方案。其他解决方案,如 TLX 项目,则以取代现有方案为目标。找到一套解决方案是个复杂的问题,需要不少的前瞻性思考。这套解决方案不仅要与现有的工作流兼容,还要为如今的前沿工作流及尚未问世的未来工作流赋能。

SMPTE 正在开发的 TLX 项目是目前所提出的解决方案中最全面的一个。“TLX”这一缩写来自“可扩展时间标签(Extensible Time Label)”。它能解决我们在上文讨论过的许多限制,也能满足这里概述的许多需求。

TLX 的目标是创建一种具有高精度(解决“太有限”问题)的时间标签,一种持久可用的媒体标识符,并且可以通过自定义信息进行扩展。TLX带有一种“数字出生证明”的概念,提供了一份独特且可移植的媒体身份。此外,它还能提供基于IEEE 1588精确时间协议的“精确时间戳”。这将赋予媒体文件一个具体且独特的时间标识。


17 结论

尽管我们在图像、声音和数据的采集技术方面取得了很多进步,在采集时间方面则几乎没什么重大进展。然而,基于时间的采集和编码技术都有了令人印象深刻的改进。在摄影机体积逐渐减小的同时,帧率则在变得越来越高。在编码和资产展示方面,人们也已做了很多关于可变帧率的工作。但我们如何才能像学院通过 ACES 媒体创作管线处理色彩的多阶段历程一样,在整个过程中将时间处理连点成线呢?

时间不仅是我们工作流的支柱,也是我们所创造之物的核心定义:

media = (image + sound) * time
媒体=(图像+音频)*时间

因此,我们记录、传输、转换和阐释时间数据的方式得赶得上现代工作流。此外,它也需要不断发展,以适配更强大且有效的工作流,同时释放之前无法企及的创意潜力。

现在,是时候谈谈时间了。

出处:R. Loughlin & D. Schweickart | Frame.io
编译:Charlie | 盖雅翻译小组





您可能还对以下内容感兴趣

《惊奇少女》《老头子》DP奥洛格林:拍电影是从一个灾难走向另一个灾难???


14期HDR调色班毕业啦!同学们有什么心声?(上)


FX《白粉飞》虚拟制作幕后:制作人狂喜!小预算剧集每集省5万美元?!


尊正「以旧换新」最高抵扣15000元,强势升级


《海边的曼彻斯特》调色师杰克·勒瓦兹:用色彩引发感受,而非操纵感受




继续滑动看下一个
GaiaDaily
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存